GENERALIDADES

En las Correlaciones se mostró la existencia de una relación LINEAL entre dos variables continuas. Es decir, Interdependencia, covariación.

Similarmente, ANOVA también busca una relación LINEAL, pero entre una variable dependiente y una o varias variables independientes.

¿QUÉ ES ANOVA?

Se conoce como el análisis de la varianza (ANOVA por sus siglas en inglés, ANalysis Of VAriance)

En general es un test paramétrico que se utiliza para contestar preguntas similares al t-test, pero esta vez cuando existe más de dos categorías en comparación.

Por Ejemplo:

¿Existen diferencias del IMC entre estrato socioeconómico (alto, medio, bajo)?

¿Existen diferencias del Índice Craneano entre los períodos Paleoindio, Arcaico, Formativo y Reciente?

ANOVA

En general el planteamiento se basa en determinar la probabilidad que tres, cuatro, cinco… etc, muestras, grupos o categorías, pertenezcan a una población con la misma media.

De esta forma, la hipótesis nula se puede expresar como:

Ho: \(m_{1}=m_{2}=m_{3}=...m_{n}\)

Para averiguar si existen diferencias entre medias se recurre a comparar las varianzas al interior de los grupos-muestras y la variancia entre los grupos-muestras(total).

El razonamiento es que si las medias son iguales, la varianza total (la de todos los grupos juntos) disminuye, pero si son muy diferentes, aumenta.

El ANOVA lo que hace es comparar la proporción entre la variancia inter-grupos y la variancia intra-grupos

ANOVA

ANOVA

Como lo que interesa es reconocer la diferencia o similitud entre los grupos (sus medias), el ANOVA examina qué tanto es la variancia inter-grupos en relación a la intra-grupos

Lo anterior permite así determinar en qué medida la variancia total es resultado del alejamiento de las medias entre los grupos y no de la variancia interna de cada grupo

El ANOVA entrega un coeficiente conocido como F , el cual expresa el cociente entre la variancia inter-grupos y la variancia intra-grupos

F = entre grupos/dentro de cada grupo

Distribución F: representa la razón de dos varianzas

ANOVA

Generalmente el resumen de un ANOVA, se presenta como el siguiente cuadro:

TIPOS DE ANOVA

ANOVA de 1 vía (oneway ANOVA)

Significa que tenemos solo una variable independiente

ANOVA

Como el p-value es menor a 0.05, concluimos que el Estrato afecta la variabilidad del peso. Por tanto existen diferencias significativas del peso promedio entre los 3 estratos

ANOVA

Pruebas post hoc

Una vez que se ha determinado que existen diferencias entre las medias, las pruebas post hoc permiten determinar qué medias difieren.

Lo anterior permite interpretar los resultados del test ANOVA en función de las diferencias entre grupos específicos.

El término “post hoc” proviene del latín para “después del evento”. Hay muchas pruebas post hoc diferentes que se han desarrollado, y la mayoría de ellas nos darán respuestas similares

Los principales test post-hoc son:

  • Tukey
  • Bonferroni
  • Duncan
  • Scheffe
  • Diferencia mínima de Fisher (LSD)

ANOVA

Prueba Bonferroni

Una prueba de Bonferroni es quizás el análisis post hoc más simple. Una prueba de Bonferroni es una serie t de pruebas realizadas en cada par de grupos.

Esta prueba divide el nivel de significación α por el número de comparaciones que se está realizando para evitar que se incremente las tasas de error de Tipo I, ya que al hacer muchas combinaciones se incrementa el nivel de significación por la totalidad de la data.

En nuestro ejemplo:

Alto Bajo
Bajo 0.029
Medio 1.000 0.067

ANOVA

La diferencia significativa honesta de Tukey

La diferencia significativa honesta (HSD) de Tukey es un análisis post hoc muy popular. Este análisis, al igual que el de Bonferroni, realiza ajustes basados en el número de comparaciones, pero hace ajustes al estadístico de prueba al ejecutar las comparaciones de dos grupos.

En nuestro ejemplo:

diff lwr upr p adj
Bajo-Alto -13.230769 -25.0441653 -1.417373 0.0252811
Medio-Alto -1.692308 -13.5057038 10.121088 0.9347725
Medio-Bajo 11.538462 -0.2749345 23.351858 0.0567362

SUPUESTOS PARA ANOVA DE UNA VIA

El ANOVA es un atécnica paramétrica ya al igual que el t-test, es importante que cumpla ciertos requisitos para llevarse a cabo:

  • Se necesita que los datos tengan una distribución normal
  • Se supone que las poblaciones que proveen las muestras tienen varianzas iguales (llamada homocedasticidad de varianza)
  • Las muestras son independientes (!), o sea no pareadas.

Verificación de supuestos

Para testear la normalidad realizamos un test de Shapiro-Wilk o el de Kolmogorov Smirnov, para los grupos seleccionados.

Para testear la homoscedasticidad, aplicamos la prueba de Levene

ANOVA DE DOS VIAS

Significa que tenemos dos variables independientes.

Es decir, permite estudiar simultáneamente los efectos de dos fuentes (factores) de variación en una variable dependiente.

ANOVA DE DOS VIAS (ANOVA de tipo II)

Siguiendo con nuestro ejemplo, supongamos que tenemos tambien la variable Sexo (biológico)

Por tanto queremos saber si el sexo y el estrato socioeconómico afectan la variación del Peso.



En este caso, solo el Estrato está afectando estadisticamente la variabilidad del Peso. Por tanto, se mantienen las diferencias del peso por Estrato.

MODELOS ANCOVA

Su objetivo principal es analizar las diferencias entre grupos en una variable dependiente mientras se controla el efecto de una o más variables independientes llamadas covariantes o variables confusoras.

Es utilizado cuando se sospecha que una o varias variables adicionales (covariantes) pueden estar influyendo en la variable dependiente, y se desea controlar su efecto para examinar con mayor precisión las diferencias entre los grupos de interés. En lugar de simplemente comparar las medias de los grupos, el ANCOVA ajusta los efectos de las covariantes para evaluar las diferencias que pueden atribuirse exclusivamente al factor o tratamiento de interés.

Las covariantes son variables adicionales que se incluyen en el modelo para eliminar o reducir la varianza no deseada causada por factores externos o variables de confusión. Estas variables pueden ser factores extrínsecos que afectan la variable dependiente pero no son de interés en sí mismos.

MODELOS ANCOVA

Siguiendo con nuestro ejemplo, ahora vamos a usar la variable sexo como cofactor para controlar el efecto del Estrato en las diferencias observadas en la variable Peso.

La interacción entre Estrato y Sexo no afecta la variabilidad del Peso, es decir, el modelo Estrato:sex no afecta los valores del peso.

MODELOS MANOVA

El Análisis multivariante de varianza (MANOVA)

Es una técnica estadística avanzada que extiende el análisis de varianza (ANOVA) para el caso en el que se tienen múltiples variables dependientes. Su objetivo principal es examinar si hay diferencias significativas entre grupos en varias variables dependientes simultáneamente.

METODOS NO PARAMÉTRICOS

METODOS NO PARAMÉTRICOS

Cuando la población desde la cual provienen los datos no tiene distribución normal, la media y la desviación estándar ya no son confiables para comparar las muestras entre sí

Los métodos paramétricos como el t-test y el ANOVA se basan, precisamente, en la comparación de grupos a partir de las desviaciones estándar y las medias

Por eso, en los casos en que no es posible usar dichos parámetros, es necesario recurrir a los llamados métodos no paramétricos para la comparación de grupos

Las pruebas no paramétricas se caracterizan por la ausencia de supuestos acerca de la distribución de la población de la cual ha sido extraída la muestra.

Por esta razón, es común referirse a ellas como “pruebas de distribución libre”

Las variables continuas usadas en antropología como dimensiones o magnitudes, pueden tener distribuciones asimétricas debido al proceso o error muestral.

También a veces las muestras seleccionadas son demasiado pequeñas, lo que hace difícil que adquieran una distribución normal

METODOS NO PARAMÉTRICOS

Los métodos no-paramétricos se justifican cuando:

  • Se desconoce o es imposible conocer la distribución de la población
  • La Población está altamente sesgada
  • Tamaño muestral es muy pequeño
  • Analizar datos no-numéricos, en escala nominales u ordinales
  • Variables contínuas con gran asimetría

Aquellas pruebas no paramétricas que son equivalentes al análisis de varianza y prueba de t, se basan en los rankings o posición de las observaciones, en lugar de las observaciones propiamente tales

Estos métodos utilizan información acerca de los tamaños relativos de las observaciones, sin asumir nada acerca de la naturaleza específica de las distribuciones

En definitiva, trabajan los datos como si fuesen categorías ordinales, aun siendo numéricas, dada la imposibilidad de asumir su cualidad paramétrica

METODOS NO PARAMÉTRICOS

Pruebas no paramétricas para comparación de grupos

Son numerosas las pruebas no paramétricas para comparar grupos en estadística, incluyendo :

  • Prueba de signos de Wilcoxon
  • Prueba U de Mann-Whitney (o Wilcoxon para muestras independientes)
  • Prueba Kolmogorov-Smirnov
  • Prueba de rachas de Wald-Wolfowitz
  • Prueba H de Kruskal-Wallis
  • Prueba de las medianas
  • Prueba de Friedman
  • Prueba Cochran

El chi-cuadrado también es considerado como una prueba no paramétrica, pero está exclusivamente diseñadas para variables categóricas

METODOS NO PARAMÉTRICOS

Prueba U de Mann-Whitney

También llamada de Mann-Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney

Permite comparar la diferencia entre 2 muestras independientes. Esta prueba es una alternativa a la “t” de student para muestras independientes. Esta prueba permite saber si hay o no diferencias entre las muestras, o también si provienen o no de la misma población.

El procedimiento parte combinando los conjuntos de las n1 y n2 observaciones.

Cuando todas las observaciones están juntas se asigna un rango a cada una de las observaciones ordenadas, que comienza en 1 y termina en n1+n2

Posteriormente se suman en forma separada para cada categoría los rankings asignados desde el conjunto total

Viene dado con el siguiente estadístico:

METODOS NO PARAMÉTRICOS

Ejemplo de la Prueba U de Mann-Whitney

Se evaluó la presión arterial sistólica en un grupo de pacientes por sexo.

  • Ho: La presión arterial es igual entre hombres y mujeres
  • Hi: La presión arterial es diferente entre hombres y mujeres

METODOS NO PARAMÉTRICOS

Los valores se ordenan y se les asigna un rango. Si hay empate ( valores iguales), se obtiene el promedio.

Wilcoxon rank sum test
  • data: presion by sex
  • W = 76.5, p-value = 0.04147
  • alternative hypothesis: true location shift is not equal to 0

METODOS NO PARAMÉTRICOS

Prueba Kruskal-Wallis

El contraste de Kruskal-Wallis o llamada también Prueba “H”, es una generalización de la Prueba U, pero para “k” muestras independientes.Es decir, es el equivalente no paramétrico de una prueba anova de una vía

Tal como el test de Wilcoxon, opera a partir de la comparación de la suma de los rankings de las muestras

En esencia, compara los rankings promedios observados para las k muestras, con los esperados asumiendo Ho.

El estadístico utiliza la distribución chi-cuadrado para examinar el nivel alpha

Entonces H tiene una distribución Ji-Cuadrado con K-1 grados de libertad

Donde la Ho: las k muestras provienen de la misma población.

METODOS NO PARAMÉTRICOS

Ejemplo Prueba Kruskal-Wallis

Los siguientes datos corresponden a las edades obtenidas en tres grupos diferentes.

Por tanto: Ho: A = B= C

         Hi: A ≠ B ≠ C
         



Como la \(\chi_{95\%}^2(2g.l) = 5.99\)

Se acepta la Ho a un nivel del 95%

…A PRACTICAR!!

PRACTICA

Seguiremos usando la base base_enca2014_200.xlsx de de tamaño 200 de la Encuesta nacional de Consumo Alimentario del 2014.

Llamamos la librería readxl y cargamos nuestro excel

library(readxl)
datos <- read_excel("data/base_enca2014_200.xlsx")  #Cargamos la base

Agregamos las etiquetas a los códigos de las variables categóricas

datos$nse <- factor(datos$nse, labels = c("Alto", "Medio_alto", "Medio", "Medio_Bajo", "Bajo"))
datos$sex <- factor(datos$sex, labels = c("Hombre","Mujer"))
datos$macrozona <- factor(datos$macrozona, labels = c("Norte","Centro Norte","Centro Sur","Sur","RM"))
datos$area <- factor(datos$area, labels = c("Urbano","Rural"))

Vamos a realizar un ANOVA de 1 vía (oneway ANOVA) y seleccionamos la variable Peso en Kilogramos (wgt) como dependiente y macrozona como independiente

Primero procedemos a verificar si esta variable si se ajusta a la normalidad por cada grupo.

Como ya sabemos en practicas anteriores que esta variable no se ajusta a la normal, procedemos a realizar las transformaciones y probar el ajuste.

PRACTICA

shapiro.test(log(datos[datos$nse=="Alto", c("wgt")]$wgt))
    Shapiro-Wilk normality test

data:  log(datos[datos$nse == "Alto", c("wgt")]$wgt)
W = 0.91754, p-value = 0.1342
shapiro.test(log(datos[datos$nse=="Medio_alto", c("wgt")]$wgt))
    Shapiro-Wilk normality test

data:  log(datos[datos$nse == "Medio_alto", c("wgt")]$wgt)
W = 0.97676, p-value = 0.6027
shapiro.test(log(datos[datos$nse=="Medio", c("wgt")]$wgt))
    Shapiro-Wilk normality test

data:  log(datos[datos$nse == "Medio", c("wgt")]$wgt)
W = 0.97509, p-value = 0.4812
shapiro.test(log(datos[datos$nse=="Medio_Bajo", c("wgt")]$wgt))
    Shapiro-Wilk normality test

data:  log(datos[datos$nse == "Medio_Bajo", c("wgt")]$wgt)
W = 0.97084, p-value = 0.08077
shapiro.test(log(datos[datos$nse=="Bajo", c("wgt")]$wgt))
    Shapiro-Wilk normality test

data:  log(datos[datos$nse == "Bajo", c("wgt")]$wgt)
W = 0.96765, p-value = 0.5191

PRACTICA

Luego procedemos a evaluar la homocedasticidad con la prueba de Levene

library(car)
leveneTest(log(datos$wgt), datos$nse) 
Levene's Test for Homogeneity of Variance (center = median)
       Df F value Pr(>F)
group   4  1.2955 0.2732
      195               

Como vemos que si se ajusta a normal en cada caso y se comprueba la homocedasticidad, procedemos a guardar la transformación del peso en la base

datos$wgt_log <- log(datos$wgt)

Ahora procedemos a aplicar el ANOVA

anova <- aov(wgt_log~nse, data=datos)
summary(anova)
             Df Sum Sq Mean Sq F value  Pr(>F)   
nse           4  0.519 0.12964   3.431 0.00977 **
Residuals   195  7.368 0.03779                   
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Observamos que como el p-valor es menor a 0.05, rechazamos las hipotesis nula de igualdad de promedios entre los grupos. Es decir, existen diferencias significativas del peso promedio entre los estratos

PRACTICA

Vamos graficar…

library(ggplot2)
ggplot(data=datos, aes(x=nse, y=wgt_log, fill=nse)) +
  geom_boxplot(outlier.colour = "red" ) +
  ggtitle('Grafico de Boxplot - Peso x nse') +
  stat_boxplot(geom = "errorbar", width = 0.25) + theme_bw() +
  stat_summary(fun=mean,geom="point",shape=18,size=3,color="black")

PRACTICA

Pruebas post hoc

Diferencia significativa honesta (HSD)

TukeyHSD(anova)
  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = wgt_log ~ nse, data = datos)

$nse
                             diff         lwr          upr     p adj
Medio_alto-Alto       -0.11924072 -0.27541432  0.036932886 0.2232480
Medio-Alto            -0.18860333 -0.34246110 -0.034745553 0.0078404
Medio_Bajo-Alto       -0.10577873 -0.24955307  0.037995603 0.2575824
Bajo-Alto             -0.16896556 -0.33353354 -0.004397586 0.0409875
Medio-Medio_alto      -0.06936261 -0.18919414  0.050468919 0.5031535
Medio_Bajo-Medio_alto  0.01346199 -0.09311400  0.120037967 0.9968374
Bajo-Medio_alto       -0.04972484 -0.18302900  0.083579317 0.8425901
Medio_Bajo-Medio       0.08282460 -0.02032801  0.185977201 0.1800263
Bajo-Medio             0.01963777 -0.11094562  0.150221147 0.9937951
Bajo-Medio_Bajo       -0.06318683 -0.18172317  0.055349511 0.5846416

PRACTICA

Pruebas post hoc

Prueba Bonferroni

pairwise.t.test(datos$wgt_log, datos$nse, p.adj='bonferroni')
    Pairwise comparisons using t tests with pooled SD 

data:  datos$wgt_log and datos$nse 

           Alto   Medio_alto Medio  Medio_Bajo
Medio_alto 0.3681 -          -      -         
Medio      0.0089 1.0000     -      -         
Medio_Bajo 0.4415 1.0000     0.2821 -         
Bajo       0.0519 1.0000     1.0000 1.0000    

P value adjustment method: bonferroni 

PRACTICA

ANOVA de 2 vías

Queremos saber si el sexo y el nivel socioeconómico afectan la variación del Peso. Es decir, si las diferencias observadas de promedio del peso entre los grupos se mantiene, si actuan el nse y sexo

anova <- aov(wgt_log~nse+sex, data=datos)
summary(anova)
             Df Sum Sq Mean Sq F value   Pr(>F)    
nse           4  0.519  0.1296   3.719  0.00611 ** 
sex           1  0.605  0.6053  17.364 4.65e-05 ***
Residuals   194  6.763  0.0349                     
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En este caso, ambos factores estan afectando estadisticamente la variabilidad del Peso. Por tanto, se mantienen las diferencias del peso por nse y ahora por sexo.

PRACTICA

ANCOVA

Queremos probar la interacción de dos variables independientes categóricas

Queremos verificar, si interactuando el area con el nse, se mantienen las diferencias del peso.

anova <- aov(wgt_log~nse*area, data=datos)
summary(anova)
             Df Sum Sq Mean Sq F value Pr(>F)  
nse           4  0.519 0.12964   3.410 0.0101 *
area          1  0.071 0.07069   1.859 0.1743  
nse:area      3  0.036 0.01213   0.319 0.8115  
Residuals   191  7.261 0.03802                 
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El resultado muestra que la variable area, no está asociada significativamente con la interacción de la variable nse. Es decir, el modelo de interacción nse:area no permite rechazar la Ho. Por lo tanto, ese modelo no permite explicar las diferencias del peso.

PRACTICA

ANCOVA

Evaluar el efecto de la interacción de dos variables independientes: categórica y continua

En este caso, queremos ver el efecto del consumo de carbohidratos al día en gr (cho_g_dia) con el nse en las diferencias del peso.

anova <- aov(wgt_log~nse*cho_g_dia, data=datos)
summary(anova)
               Df Sum Sq Mean Sq F value  Pr(>F)   
nse             4  0.519 0.12964   3.673 0.00661 **
cho_g_dia       1  0.000 0.00008   0.002 0.96285   
nse:cho_g_dia   4  0.661 0.16532   4.684 0.00126 **
Residuals     190  6.707 0.03530                   
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Observamos que la interacción nse:cho_g_dia (comsumo de carbohidratos al día en gr) es altamente significativa, es decir, las diferencias del peso promedio entre los niveles socioeconómicos pordría están siendo afectada por el consumo de carbohidratos. En otras palabras, el consumo de carbohidratos es diferente por niveles socioeconómicos y afecta el peso de los invididuos

PRACTICA

PRUEBAS NO PARAMETRICAS

Prueba de suma de rangos Wilcoxon (U de Mann-Whitney)

Vamos a filtrar la base por nse=“Medio”, para tener una base más pequeña y luego vamos ver si existen diferencias del peso por sex

datos_medio <- datos[datos$nse=="Medio", c("sex", "wgt")]
wilcox.test(wgt~sex, data=datos_medio, exact=FALSE)
    Wilcoxon rank sum test with continuity correction

data:  wgt by sex
W = 292.5, p-value = 0.02957
alternative hypothesis: true location shift is not equal to 0

El p-valor nos indica que rechazamos la Ho de igualdad entre promedios del peso por sexo.

PRACTICA

PRUEBAS NO PARAMETRICAS

Prueba Kruskal-Wallis

Vamos a filtrar la base por sex=“Hombre” para tener una base más pequeña y luego vamos ver si existen diferencia del peso por nse

datos_mas <- datos[datos$sex=="Hombre", c("nse", "wgt")]
kruskal.test(wgt~nse, data = datos_mas)
    Kruskal-Wallis rank sum test

data:  wgt by nse
Kruskal-Wallis chi-squared = 7.1658, df = 4, p-value = 0.1274

El p-valor nos indica que no podemos rechazar la Ho, por tanto aceptamos la no diferencia del peso por nse.